高质量数据对于现代机器学习是必需的。但是,由于人类的嘈杂和模棱两可的注释,难以获取此类数据。确定图像标签的这种注释的聚合导致数据质量较低。我们提出了一个以数据为中心的图像分类基准,该基准具有9个现实世界数据集和每个图像的多次注释,以调查和量化此类数据质量问题的影响。我们通过询问如何提高数据质量来关注以数据为中心的观点。在数千个实验中,我们表明多个注释可以更好地近似实际的基础类别分布。我们确定硬标签无法捕获数据的歧义,这可能会导致过度自信模型的常见问题。根据呈现的数据集,基准基准和分析,我们为未来创造了多个研究机会。
translated by 谷歌翻译
行为树(BTS)的发现影响了游戏中的人工智能(AI)领域,通过提供游戏设计人员可管理的非玩家字符(NPCS)逻辑的灵活性和自然表示。尽管如此,更好的压力更好的NPCS AI-Agents强迫手工BTS的复杂性变得勉强易于易于出错。另一方面,虽然许多刚刚推出的在线游戏遭受了玩家短缺,但具有广泛功能的AI的存在可能会增加球员保留。因此,为了处理上述挑战,最近的领域的趋势专注于​​自动创建AI-Agents:从深层和加固技术到组合(约束)优化和BTS演化的技术。在本文中,我们提出了一种新的半自动构建AI-AGENT的方法,通过在源和BT游戏玩法之间的发达的相似度量下调整和调整专家创建的BT来模仿和概括的人类游戏。为此,我们配制了混合离散 - 连续优化问题,其中BT的拓扑和功能变化在数值变量中反映,并构建了专用的杂化 - 成胸型。呈现方法的表现在实验上验证了原型实时策略游戏。进行实验确认了提出的方法的效率和观点,该方法将适用于商业比赛。
translated by 谷歌翻译
目的:对于下臂截肢者,机器人假肢承诺将重新获得日常生活活动的能力。基于生理信号(例如肌电图(EMG))的当前控制方法容易由于运动伪影,肌肉疲劳等导致不良的推理结果。视觉传感器是有关环境状态的主要信息来源,可以在推断可行和预期的手势中发挥至关重要的作用。但是,视觉证据也容易受到其自身的伪像,最常由于对象阻塞,照明变化等。使用生理和视觉传感器测量的多模式证据融合是一种自然方法,这是由于这些模态的互补优势。方法:在本文中,我们提出了一个贝叶斯证据融合框架,用于使用眼部视频,眼睛凝视和来自神经网络模型处理前臂的EMG的掌握意图推理。当手接近对象以掌握对象时,我们将个人和融合性能分析为时间的函数。为此,我们还开发了新颖的数据处理和增强技术来训练神经网络组件。结果:我们的结果表明,相对于EMG和视觉证据,平均而言,融合会提高即将到来的GRASP类型分类准确性,而在触及阶段则提高了13.66%和14.8%的融合,从而单独地和视觉证据,总体融合精度为95.3%。结论:我们的实验数据分析表明,EMG和视觉证据表明互补的强度,因此,多模式证据的融合可以在任何给定时间胜过每个单独的证据方式。
translated by 谷歌翻译